Representantes do Google declararam que criar conteúdo "em pequenas doses" especificamente para modelos de linguagem grandes (LLMs) como o Gemini não melhorará a classificação nos mecanismos de busca. Em um episódio recente do podcast "Search Off the Record" do Google, John Mueller e Danny Sullivan abordaram a prática de SEO cada vez mais popular de fragmentação de conteúdo, onde os sites dividem as informações em parágrafos e seções menores, frequentemente com inúmeros subtítulos formatados como perguntas.
A intenção por trás da fragmentação de conteúdo é facilitar a ingestão e citação das informações por bots de IA generativa, teoricamente aumentando a visibilidade na pesquisa. Os sites que empregam essa técnica geralmente apresentam parágrafos curtos, às vezes consistindo em apenas uma ou duas frases, projetados para atender aos algoritmos de IA. No entanto, Sullivan esclareceu que os algoritmos de pesquisa do Google não usam esses sinais para melhorar a classificação. "Uma das coisas que continuo vendo repetidamente em alguns conselhos de SEO é que você deve dividir as coisas em pedaços realmente pequenos", disse Sullivan. "E isso não é algo que observamos."
A otimização para mecanismos de busca (SEO) se tornou um setor significativo, com empresas buscando constantemente maneiras de melhorar a visibilidade de seu site nos resultados de pesquisa. Embora algumas práticas de SEO sejam legítimas e benéficas, muitas outras são baseadas em especulação e teorias não comprovadas. A ascensão dos LLMs levou a novas estratégias de SEO destinadas a otimizar o conteúdo para o consumo de IA, mas a declaração do Google sugere que essas estratégias podem ser equivocadas.
A implicação da postura do Google é que os criadores de conteúdo devem priorizar a criação de conteúdo abrangente e bem estruturado para leitores humanos, em vez de tentar manipular o sistema criando conteúdo fragmentado para IA. Isso se alinha com a ênfase de longa data do Google em fornecer aos usuários resultados de pesquisa relevantes e de alta qualidade. O desenvolvimento destaca a tensão contínua entre otimizar o conteúdo para algoritmos e criar conteúdo valioso para usuários humanos. À medida que os LLMs continuam a evoluir e a desempenhar um papel maior na recuperação de informações, o debate sobre a melhor forma de otimizar o conteúdo para IA e humanos provavelmente continuará.
Discussion
Join the conversation
Be the first to comment